Ley AI: Unas cuarenta asociaciones, entre ellas la Federación Internacional de Periodistas, denuncian una "traición a los objetivos del reglamento europeo".

Se suponía que se sustentaría en dos pilares: la protección de los derechos fundamentales y el surgimiento de un ecosistema basado en la inteligencia artificial. Pero si bien aún no se ha implementado por completo —se implementará gradualmente hasta 2027—, la Ley de IA (Ley de Inteligencia Artificial) ya avanza con dificultad.
A principios de agosto se impusieron algunas medidas restrictivas a los editores de software, como la prohibición de comercializar herramientas de reconocimiento facial o vender programas de predicción del comportamiento, pero la regulación real de la llamada IA de "alto riesgo", en la educación o el control de fronteras , por ejemplo, no tendrá lugar hasta 2026.
Si esta segunda parte de la Ley de IA se esperaba con tanta ilusión era principalmente porque debía regular el uso de contenidos protegidos por derechos de autor por parte de los denominados programas generativos, como ChatGPT o Gemini de Google.
En lugar de elaborar un marco vinculante, la Comisión Europea ha elaborado un código de prácticas para su presentación a los gigantes tecnológicos. Se les invita a elaborar un documento que ofrezca « una visión general completa de los datos utilizados para entrenar un modelo . El editor enumerará las principales recopilaciones de datos y explicará las demás fuentes utilizadas », explicó la Comisión en un comunicado de prensa.
Este es solo un resumen de los tipos de fuentes más comunes para entrenar la IA generativa y alimentarla diariamente. No se proporciona información específica ni detallada que permita demostrar una infracción de derechos de autor.
Por eso, unas cuarenta organizaciones de titulares de derechos de todo el mundo (la Federación Internacional de Periodistas, asociaciones que agrupan a productores de cine, guionistas, actores de doblaje, traductores, compositores, editores de libros, directores) publicaron conjuntamente un comunicado de prensa el miércoles pasado denunciando una « traición a los objetivos del reglamento europeo sobre inteligencia artificial ». Estas asociaciones de creadores apostaban fuertemente por la Ley de Inteligencia Artificial para crear un marco de protección del que el resto del mundo podría haberse inspirado.
Este código de buenas prácticas " no responde a las preocupaciones fundamentales que nuestros sectores han planteado constantemente ", denuncian los titulares de derechos, que deploran " una oportunidad perdida para garantizar una protección significativa de los derechos de propiedad intelectual en el contexto del desarrollo de la IA generativa ".
Lejos de ser un compromiso, esta segunda parte parece ser " para el único beneficio de los proveedores de modelos de IA generativos que infringen continuamente los derechos de autor y derechos conexos para entrenar sus modelos", denuncian las organizaciones.
Reporteros Sin Fronteras ya había cerrado las negociaciones e insistido en otro punto tan crucial como el de los derechos de autor: «Este Código no contiene ni una sola disposición concreta para combatir los peligros comprobados que la IA supone para el acceso a información fiable. Las cuestiones democráticas no pueden relegarse, como ocurre hoy, a un apéndice».
RSF quería que el acceso de los ciudadanos a información fiable se considerara un derecho fundamental en la Ley de IA, ante la proliferación de deepfakes , sitios web automatizados de noticias falsas o información engañosa difundida mediante IA generativa, liderada por Grok, de Elon Musk . En resumen, este código de buenas prácticas no menciona la desinformación. En cuanto a los riesgos fundamentales, por ejemplo, relacionados con el correcto desarrollo de las elecciones, como denuncia RSF, solo se mencionan en el apéndice.
Para la prensa, el desafío es doble: una encuesta reciente del Pew Research Center reveló que los resúmenes elaborados por IA generativas como ChatGPT o Gemini suelen disuadir a los usuarios de internet de continuar . Por lo tanto, hacen clic en los enlaces ofrecidos con la mitad de frecuencia que al consultar en un motor de búsqueda tradicional.
Esta cifra es similar a la de los visitantes menos visitantes a los sitios de medios, que dependen de este canal para obtener ingresos publicitarios y suscripciones. Como resultado, casi uno de cada cinco jóvenes menores de 25 años utiliza ahora IA generativa para obtener información .
Sin embargo, muy por debajo de las ambiciones iniciales, esta segunda parte de la Ley IA ya es demasiado restrictiva para muchos actores económicos que piden una pausa en su implementación.
Se espera que Google firme este código de conducta, especificando que « la Ley de IA y el código corren el riesgo de ralentizar (...) el despliegue de la IA en Europa ». Meta (Facebook), por su parte, ha anunciado que ni siquiera lo firmará. Un portavoz incluso declaró: « El enfoque inconsistente, restrictivo y contraproducente de la Unión Europea (...) contrasta marcadamente con el liderazgo proinnovación del presidente Trump ».
Cabe mencionar que Meta ya enfrenta acciones legales en Europa. El Sindicato Nacional de Editores, la Société des Gens de Lettres y la Unión Nacional de Autores y Compositores han demandado al grupo por falsificación y parasitismo económico .
Las organizaciones de autores y editores creen que el gigante tecnológico ha explotado, sin la autorización de los titulares de derechos, volúmenes " colosales " de obras protegidas por derechos de autor para alimentar su IA generativa.
A diferencia del 90% de los medios franceses actuales, L'Humanité no depende de grandes grupos ni de multimillonarios . Esto significa que:
- Te ofrecemos información imparcial y sin concesiones . Pero también que...
- No tenemos los recursos financieros que tienen otros medios de comunicación .
La información independiente y de calidad tiene un precio . Págalo. Quiero saber más.
L'Humanité